Depuis la GDC, vous avez vu fleurir des vidéos techniques de futurs moteurs 3D comme autant de promesses de lendemain qui en mettent plein la vue. Et bien demain commence aujourd'hui, chez Nvidia tout du moins, qui continue sa promo agressive de leurs nouveaux hardwares PC. Ils viennent même chercher Gameblog, pour vous dire si c'est agressif. Alors cette GTX 680 ?
Bonjour, je vais vous parler d'une carte graphique. Houlà attention, pas question de compter des broches, de benchmarker Mon Petit Poney Online ou de me lacérer les doigts sur les parties coupantes à l'intérieur de mon PC. D'autres confrères font cela très bien. Je me contenterai de vous expliquer ce que j'ai vu à la présentation et d'étaler ce que j'en pense. En gros, ça parle de puissance, de nouvelles technologies, de consommation, et de bien d'autres choses encore, malheureusement, j'ai oublié.
Il est déjà 2012 là ?
Ces dernières années ont dû être terriblement frustrantes pour Nvidia et consorts. Les progrès en matière de puissance graphique n'ont pas cessé, mais côté jeux vidéo, le temps s'est arrêté aux limites imposées par l'intérieur de la Xbox 360 ou de la PS3 : "non, les amis, restons dans la décennie précédente, c'était tellement cool". Malgré quelques titres qui tentent de pousser ces machines jusque dans leurs derniers retranchements et au-delà, aujourd'hui plus que jamais se fait ressentir le besoin, si ce n'est de passer à la suite, au moins de connaître quand cette suite arrivera. Pourquoi croyez-vous que les rumeurs a propos des Xbox 720 et autres PS4 marchent si fort ? Mais sur PC, le matos est déjà là. Et avec la GTX 680, on voit que Nvidia a décidé de nous donner un avant-goût de ce qui peuplera nos boîtiers dans un futur proche (espérons). Et comme les développeurs ont l'air de vouloir se sortir les doigts du ventilo pour nous fournir des versions PC adéquates, les plus hardcore d'entre nous peuvent commencer à faire chauffer leur résolution, les options graphiques et la 3D Vision, si tant est que tout n'était pas déjà à fond.
Je marche seule
Le postulat de base est simple. Vous vous souvenez de la démo "le Samaritain" avec l'Unreal Engine 3 ? On savait qu'il fallait trois GTX 580, le top de la marque, pour la faire tourner. Pour la présentation, un PC équipé d'une seule 680 nous la livrait en live, belle et soumise. Bon OK, ça reste une démo technique et pas un jeu, mais c'est du temps réel, utilisant toutes les nouvelles techs de Nvidia. Une carte, une, comportant, je le dis pour les techos, 1536 CUDA cores (que l'on peut qualifier d'unité de base de la tech Nvidia concernant leurs cartes graphiques depuis la GeForce serie 8), contre 512 sur la 580 (eh non 32, désolé). D'après les benchmarks de Nvidia, qu'il faudra bien évidemment vérifier le moment venu, la 680 n'enterre pas la concurrence (la HD7970 d'ATI), mais se montre sensiblement plus puissante sur la grande majorité des jeux.
Have you tried turning it off and on again ?
La carte embarque aussi quelques technologies fort intéressantes dont on va faire le tour vite fait. L'adaptative V-sync par exemple. On opte pour le V-sync pour éviter l'effet de déchirure que l'image subit partout (le fameux tearing, rare, mais franchement désagréable.) En contrepartie, cela occasionne parfois des soubresauts (ça rame quoi). Le problème réside dans les éventuelles pertes de framerate, qui obligent le V-sync à changer le palier de 60fps à 30fps, assez brutalement ; même si vous descendez à 55 par exemple, le V-sync ne fera pas la différence. Bref, l'adaptative V-sync permet de désactiver l'option automatiquement si votre jeu passe en dessous de 60fps. Notez bien que Nvidia n'annonce pas le problème comme "résolu", mais comme "réduit".
Le TXAA est dans l'escalier
Côté lissage de polygones et chasse aux escaliers (l'aliasing), nous trouvons dans la GTX 680 une nouvelle version de la tech FXAA. Ou plutôt, ce sont les derniers drivers qui démocratisent ce lissage autrefois réservé à une poignée ou deux de jeux. En plus de cela, Nvidia a mis au point le TXAA (voir les images) qui sera supporté par de nombreux titres à venir, par exemple The Secret World ou Borderlands 2, qui a récemment déclaré son amour au PC dans une lettre rigolote. Vous pensiez bien que c'était intéressé...
De la touffe en 3D
Les titres utilisant PhysX sont de plus en plus nombreux grâce à l'acharnement de Nvidia. Vous avez aussi sûrement vu la vidéo des nouveaux gadgets physx qui permettent de baisser la charge de travail des programmeurs qui souhaitent casser des choses dans leurs jeux. Les images sont convaincantes, et la carte calcule la masse et l'inertie de chaque nouveau morceau "fracturé", mais on a toujours un peu l'impression que les objets n'ont pas de poids... Pour les besoins de la démo, probablement (faut que ça vole !), mais c'est une sensation que l'on retrouve trop souvent dans les jeux : est-ce que par hasard les studios ne sauraient pas gérer correctement la technologie qui leur est proposée ? On verra aussi avec les simulations des mouvements de tissus et de la fourrure (pour ne pas dire des poils...). Dans ce dernier cas, je reste un peu sceptique, à moins que vous vouliez des monstres qui semblent sortir d'un sèche-linge.
Ne plus faire sauter les plombs
Enfin, la GTX 680 est étonnamment flexible. Il faut savoir qu'elle vous demandera une alimentation moindre qu'une 580 : seulement 195W, pour des performances bien plus élevées. Avec la technologie GPU Boost, elle se permet aussi d'améliorer les performances en utilisant la puissance non utilisée par les applications en cours. De base, la carte garantit 1006MHz et peut monter à 1058MHz en moyenne lorsque GPU boost fonctionne. Il s'agit d'une sorte d'overclocking intégré, qui n'empêche même pas l'overclocking normal, qui, lui, est rendu encore plus facile avec les logiciels fournis. On peut même overclocker la RAM avec un simple bouton. À se demander si les hardcore bidouilleurs ne vont pas se plaindre qu'on leur ôte trop le pain de la bouche.
Sans contrôle, la puissance n'est rien
Le dit logiciel offre en effet un contrôle jamais vu sur une carte 3D. On peut par exemple fixer des contraintes précises en terme de puissance utilisée ou de framerate (garder une constante de 50FPS par exemple). La carte adapte ses performances et sa consommation en temps réel selon l'utilisation qui en est faite. Même en plein jeu, elle pourra décider de lâcher du mou simplement parce que l'action n'est plus aussi intense qu'il y a cinq minutes. Espérons qu'il n'y ait aucun temps de réactivité dans le cas inverse, mais la démo live avec Battlefield 3 ne semblait pas poser de problème. Ces innovations permettent non seulement un meilleur contrôle des performances, mais aussi une économie en terme de consommation. Ça intéressera les plus verts d'entre vous.
Allez PC ! Allez PC !
Nvidia cherche donc à séduire autant sur le service que sur la performance pure. De nombreux développeurs vont commencer à rendre une copie PC de leurs titres plus aboutie : si ce n'est au niveau textures et modélisation, ce sera côté aliasing, physique et amélioration des effets visuels. Comme dit précédemment, un jeu comme Borderlands 2 a annoncé la couleur, avec le support de très hautes résolutions par exemple. Néanmoins, on ne peut nier que le gros des développeurs n'emboîteront pas le pas de sitôt. Tant que les consoles Next-next-gen ne seront pas dispo, les jeux resteront limités malgré les efforts faits pour les PC.
Acheter une Nvidia GTX 680 alors, ou pas ? Ben oui, eh, si je pouvais, j'en mettrais deux dans ma bécane. Maintenant, d'un point vu plus rationnel, c'est à envisager si vous jouez en 3D Vision et que vous voulez profiter des gros titres 2012 à fond. Sinon tant pis, les jeux resteront jolis et fluides sans trop de souci avec une configuration pas trop vieille. Je ne vois aucun titre remettre ça en cause pour cette année. Cependant, un gros framerate assuré + le TXAA + PhysX à fond, c'est tentant, quand même. Le prix de la GTX 680 qui sort aujourd'hui même est tout de même de 419 euros hors taxes, donc dans les 500 euros, pour ce top de la gamme Nvidia. Pas besoin d'acheter une alim en plus. Ni de changer de proc'. À vous de voir.